Qwen3-Embedding 0.6B 임베딩 성능

알려진 바

Qwen3-Embedding 시리즈는 Alibaba Qwen 팀이 2025년 6월 공개한 텍스트 임베딩·재랭킹 모델군이다. 0.6B / 4B / 8B 세 가지 크기가 있으며, 여기서는 가장 작은 0.6B 버전의 성능을 정리한다.

기본 사양

항목
파라미터 약 6억 (0.6B), 트랜스포머 28 레이어
컨텍스트 길이 32K 토큰
임베딩 차원 최대 1024 (32~1024 사이 사용자 지정 가능, MRL)
지원 언어 100개 이상 (자연어 + 프로그래밍 언어)
Instruction 인식 지원 (작업 맞춤 instruction 입력 가능)

벤치마크 성능

MTEB 다국어 (MMTEB)

모델 크기 평균 점수
Qwen3-Embedding-0.6B 0.6B 64.33
multilingual-e5-large-instruct 0.6B 63.22
Cohere embed-multilingual-v3.0 - 61.12
Gemini Embedding - 68.37
Qwen3-Embedding-4B 4B 69.45
Qwen3-Embedding-8B (리더보드 1위, 2025-06) 8B 70.58

0.6B는 비슷한 크기의 대표 오픈소스 모델(multilingual-e5-large-instruct)을 근소하게 앞서고, Cohere의 상용 다국어 임베딩도 상회한다.

OpenAI (text-embedding-3) 와의 비교

항목 Qwen3-Embedding-0.6B text-embedding-3-small text-embedding-3-large
MTEB (영어) 70.70 (v2) 62.3 64.6
다국어 벤치 (MTEB/MIRACL) 64.33 (MMTEB) 44.0 (MIRACL) 54.9 (MIRACL)
최대 컨텍스트 32K 8K 8K
임베딩 차원 32~1024 (MRL) 512 / 1536 256 / 1024 / 3072
가격 무료 (로컬) $0.02 / 1M 토큰 $0.13 / 1M 토큰
공개 여부 오픈 웨이트 (Apache 2.0) 폐쇄 API 폐쇄 API

주의: OpenAI의 공식 점수는 구버전 MTEB/MIRACL 기준이며, Qwen3 숫자는 MMTEB v2 기준이라 축이 완전히 동일하진 않다. 다만 영어 검색·다국어 양쪽 모두에서 0.6B 오픈 모델이 text-embedding-3-large를 상회한다는 점은 여러 독립 리더보드에서 재현된다.